Cinco formas de proteger nuestros datos ante el creciente uso de inteligencia artificial
Si hoy alguien pierde el control de sus datos, casi nunca es por mala suerte: suele ser por una mezcla de descuidos, engaños y herramientas cada vez más sofisticadas. En Colombia, el Centro Cibernético Policial reporta 77.866 denuncias por delitos en 2024, de las cuales 31.095 denuncias fueron por hurto por medios informáticos, 10.155 por violación de datos personales y 4.716 por suplantación de sitios web.
Cuando se pierde el control de la información personal, la consecuencia suele sentirse de inmediato: suplantación, accesos comprometidos, fraudes y un efecto dominó difícil de frenar.
Y muchas veces el punto de quiebre no es una falla técnica, sino una acción cotidiana como abrir un enlace sin revisar, confiar en una respuesta sin validar o compartir información sensible en el lugar equivocado. No es casualidad: el reporte Data Breach Investigation de Verizon estima que el 68% de las brechas involucra un componente humano.
En mes del Internet Seguro, la conversación ya no es si usamos la inteligencia artificial: es cómo utilizarla sin exponer la información personal. En ese contexto, Jaime Pérez, vicepresidente de Inteligencia Artificial de IFX, la regla es simple y aplica para todos: “Antes de confiar en la inteligencia, hay que verificar la información o la herramienta”.
A partir de lo que explica el especialista, estas son cinco formas prácticas de usar la inteligencia artificial como aliada para proteger los datos personales:
1) Usar plataformas de IA reconocidas (y desconfiar de las imitaciones)
Hay páginas que simulan ser herramientas conocidas para capturar información. La primera capa de protección es elegir inteligencias artificiales confiables y evitar “copias” o enlaces sospechosos que llegan por mensajes. Si algo se ve demasiado fácil, demasiado “gratis” o demasiado urgente, mejor parar.
2) Entender que la IA ayuda, pero no reemplaza hábitos
La IA puede apoyar, pero no sustituye lo básico: pensar antes de hacer clic, revisar a dónde se está entrando y mantener disciplina digital. Pérez insiste en que la IA es una herramienta, no un reemplazo. Cuando se usa como piloto automático, se abren ventanas para el error humano, que sigue siendo el punto más atacado.
3) Validar siempre: la última palabra la tiene la persona
La IA puede ser muy acertada, pero no tiene la última palabra. Por eso, una forma concreta de proteger los datos es usar la IA como apoyo para entender una situación, pero verificar antes de actuar: confirmar la fuente, revisar el remitente, desconfiar de instrucciones “apresuradas” y no tomar decisiones sensibles solo porque un chat lo sugirió.
4) No pegar información confidencial en chats de IA
Este punto es directo: no compartir datos sensibles en conversaciones con IA. Contraseñas, números de documento, información bancaria, direcciones, códigos o cualquier dato que, si se filtrara, cause daño. Pérez lo dice sin rodeos: aunque existan barreras, cada proveedor puede ser vulnerado. La mejor protección es no exponer lo que no se puede recuperar.
5) Aprender en grupo: compartir señales de alerta mejora la seguridad
La seguridad personal no es solo individual. Pérez recomienda formar un pequeño grupo —familia, amigos o equipo de trabajo— para compartir lo que están viendo: intentos de fraude, mensajes sospechosos, llamadas raras, páginas falsas. Esa conversación evita que otros caigan en lo mismo y ayuda a detectar vulneraciones antes.
“Lo más importante es entender que los contextos que nosotros entregamos pueden determinar una respuesta buena o mala. Hay que tratar de volverse experto en cómo se le pregunta a la inteligencia artificial para evitar fugas de datos”, destaca el ejecutivo.

